升级成功!你现在是一名人工智能侦探了!不太对哦!再仔细检查一下线索吧。信任度已更新……是……吗??……还是……?
如果一个人工智能训练数据中缺少某些人群,那么这个人工智能会怎样?
正确!人工智能就像一面镜子。如果数据本身不公平或信息缺失,人工智能的决策也会带有偏见。
当人工智能编造出听起来很真实的虚假事实时,这叫什么?
太棒了!这叫做幻觉——人工智能是根据词语模式在‘做梦’,凭空编造答案。
人工智能总是知道‘真相’吗?
没错!人工智能寻找的是模式和概率,但这并不总等于真相。
为什么简历筛选的人工智能可能会忽略来自不同背景的优秀人才?
正确!如果训练数据有限,人工智能会从数学上推断出‘不同’就等于‘不合格’。
如果人工智能给你一个用于学校项目的事实,你应该怎么做?
太好了!一定要验证人工智能提供的信息,因为它有时会自信地‘幻觉’出虚假细节。
现在人工智能只是偶然犯错,但未来人们是否可能故意利用人工智能来欺骗他人?
是的!接下来我们会看到,理解人工智能的错误,有助于我们应对一个充满故意欺骗的世界。
1
人工智能偏见与幻觉
EvoClass-AI004Lecture 10
0
🤖 哔哔!我是你的伦理向导。请选择一个谜题来破解:数据偏见,还是人工智能幻觉?
Py-机器人指令实时
哔!你好,侦探!今天我们要学习的是,人工智能并不总是正确的。有时它会复制我们的错误,有时则只是凭空编造。
主题进度0%
把人工智能想象成一面镜子。如果我们只给它看猫的照片,它可能会认为狗根本不存在!如果我们的数据带有旧有的偏见,人工智能就会重复这些偏见。比如一个招聘机器人,只会挑选某一种类型的人,因为它过去只见过这类人。这被称为‘算法偏见’。
1
子主题1
镜子(偏见)
人工智能反映的是我们给予它的数据——甚至包括那些不公平的部分。
与你不同,人工智能讨厌说‘我不知道’。它像一场巨大的‘填空游戏’一样预测下一个词。有时它会产生‘幻觉’,编造出听起来真实但完全虚假的事实!它只是在遵循某种模式,并不会去核对真相。
2
子主题2
梦者(幻觉)
当人工智能表现得极度自信,但其实完全错误时。
世界上即使最聪明的人工智能也会出错。请务必用可信来源再次核实你的事实!
你知道吗?
世界上即使最聪明的人工智能也会出错。请务必用可信来源再次核实你的事实!
加载中……
⭐⭐⭐

任务完成!

你是一名人工智能侦探!